Komisarz ds. Prywatności: „Uważajcie na sztuczną inteligencję jako wyrocznię. Nieletni są zagrożeni; potrzebny jest sojusz między instytucjami”.

Bezmyślnie pędzimy ku obietnicom sztucznej inteligencji. Jej ogromne korzyści niweczą nadzwyczajne zagrożenia dla naszego życia. Prywatność i ochrona danych – surowiec tej rewolucji – stanowią bastion przeciwko nadmiernej potędze wielkich technologii i, szerzej, wszystkim tym, którzy wykorzystują transformację cyfrową dla własnych korzyści. Ale to nie wszystko: Pasquale Stanzione, prezes włoskiego Urzędu Ochrony Danych Osobowych, w swoim przemówieniu z okazji raportu rocznego za 2025 rok, wygłoszonym 15 lipca, w którym przedstawił te koncepcje, wezwał do głębokiej współpracy w całym społeczeństwie, w tym w rodzicach, w celu ochrony tego, co nazywa „ludzką stroną” rewolucji cyfrowej. Czyli nas samych.
Rok 2024 – który raport analizuje, ale z uwzględnieniem roku 2025 i przyszłości – był kolejnym trudnym rokiem, w którym włoski Urząd Ochrony Danych (we współpracy ze swoimi europejskimi odpowiednikami) podjął się licznych wyzwań wynikających z technologii cyfrowej. Rozważmy na przykład wciąż nierozwiązany problem nielegalnego telemarketingu. Same grzywny stanowią zaledwie ułamek napotkanych problemów. W 2024 r. Urząd zebrał 24 miliony euro grzywien. Przyjęto 835 środków kolegialnych , z czego 468 miało charakter naprawczy i karny. Urząd odpowiedział na 4090 skarg i 93877 zgłoszeń dotyczących między innymi sieci marketingowych i telematycznych; danych online administracji publicznej; opieki zdrowotnej; wymiaru sprawiedliwości, cyberprzemocy i pornografii zemsty , cyberbezpieczeństwa; sektora bankowego i finansowego; oraz zatrudnienia.
Nadmierne zaufanie do sztucznej inteligencjiNajbardziej złożone kwestie dotyczą sztucznej inteligencji, która będzie tematem przemówienia prezydenta.
„Dziś każdy z nas może wykorzystać sztuczną inteligencję w dowolnych badaniach, choć z ryzykiem efektu zakotwiczenia – czyli tendencji do polegania na niej bez krytycznego myślenia i chęci dalszych badań, z niemal wyrocznią” – powiedział Stanzione. „Niedawne badania pokazują, że 66% pracowników, którzy korzystają z generatywnej sztucznej inteligencji w celach zawodowych, ufa jej wynikom, nie oceniając ich dokładności”.
Wyrocznia zajmuje się nie tylko kwestiami związanymi z pracą, życiem osobistym i zdrowiem. Sztuczna inteligencja „wkrada się do taktyki wojennej, napędzając wojnę algorytmiczną w sferze poznawczej, z manipulacją treścią, cyfrowym odstraszaniem i polaryzującymi narracjami”. „Opracowywane są hełmy zintegrowane z rozszerzoną rzeczywistością i sztuczną inteligencją, aby wzmocnić zdolności sensoryczne żołnierzy”. „Na Ukrainie system Delta zapewnia predykcyjną analizę strategiczną, przydatną do kierowania działaniami obronnymi, podczas gdy w Izraelu system Red Alert opracowuje modele predykcyjne, aby przewidywać czas ewakuacji, chroniąc ludność cywilną”.
Sztuczna inteligencja nie zastąpiła jeszcze ludzi, ale „kieruje ich decyzjami nawet w tak dramatycznie ludzkiej sferze jak wojna, dziedzinie z krwi i kości, której żaden algorytm nie jest w stanie wymazać”. Gwarant wymienia liczne korzyści, jakie oferuje sztuczna inteligencja, na przykład w opiece zdrowotnej i terapii. Jednak niezrównane korzyści, jakie może potencjalnie zaoferować sztuczna inteligencja, mogą prowadzić do niemożliwych do zniesienia zagrożeń w przypadku braku niezbędnej świadomości, która wymaga jej użycia.
Zagrożeń nie należy postrzegać jako negatywnej strony tych zalet. W rzeczywistości obie strony są jednością, ściśle ze sobą powiązane i zawsze obecne razem. Ochrona praw i jednostek to zatem kwestia ukierunkowania sztucznej inteligencji jako całości, zapewnienia jej odpowiedniego rozłożenia mocy i korzyści dla społeczności.
Problem ten uwidacznia się najwyraźniej w przypadku osób najbardziej narażonych. „Dotyczy to zwłaszcza nieletnich, którzy jako „cyfrowi tubylcy” mają niemal osmotyczną relację z nowymi technologiami, co niesie ze sobą niezaprzeczalne korzyści (wystarczy pomyśleć o ogromie informacji dostępnych za pomocą jednego kliknięcia), ale czasami wiąże się też ze znacznym ryzykiem” – mówi Stanzione.
Algorytmy są często wykorzystywane do produkcji fałszywych materiałów wideo typu deepfake , zazwyczaj ze szkodą dla kobiet i mniejszości, czyli osób, które ze względu na swoją naturę, reprezentację lub okoliczności są uznawane za bardziej podatne na ataki.
Co więcej, rośnie liczba przypadków pornografii dziecięcej generowanej przez sztuczną inteligencję, co niezwykle komplikuje pracę władz. „W ciągu zaledwie dwóch lat odnotowano 380-procentowy wzrost wykorzystania sztucznej inteligencji do tworzenia pornografii dziecięcej, czasami opartej na prawdziwych obrazach dostarczanych pod presją samych nieletnich. W tym samym okresie odsetek nastolatków narażonych na pornografię wzrósł o 35% w przypadku chłopców i o 67% w przypadku dziewcząt”.
„Gwarant interweniował w ciągu roku w odpowiedzi na prośby o ochronę związane z obawami dotyczącymi rozpowszechniania sztucznych obrazów z wykorzystaniem sztucznej inteligencji, stanowiących formę nadużycia wykraczającą poza sextortion i pornografię zemsty , w związku z czym Urząd uczestniczył w 823 postępowaniach w 2024 r.”, wyjaśnia Stanzione.
Manipulowani nieletniCoraz częściej zdarzają się również przypadki manipulowania nieletnimi lub innymi wrażliwymi osobami przez chatboty, nawet do granic możliwości. „Dla wielu nastolatków chatboty stały się prawdziwymi punktami odniesienia (Replika nazywa siebie „empatycznym przyjacielem”)”. „Niektórzy nawiązują z tymi chatbotami rodzaj emocjonalnej, empatycznej więzi, również ze względu na ich często przesadnie pochlebny, rozgrzeszający i pocieszający ton oraz ich postrzeganie jako bezpiecznej przystani, w której mogą się schronić, chroniąc się przed osądem innych”. „To tak zwana pętla nieskończonej empatii, która generuje zależność, prowadząc do dewaluacji relacji międzyludzkich (które wydają się zbyt skomplikowane i niesatysfakcjonujące), a tym samym do izolacji. Trwa śledztwo w sprawie tragicznego zaginięcia bardzo młodej dziewczyny, która zadała ChatGpt pytania o „toksyczność” miłości i związków romantycznych” – mówi Gwarant.
Praca to dziedzina, w której korzyści płynące z technologii cyfrowych wiążą się również z ryzykiem, zwłaszcza jeśli chodzi o zwiększenie produktywności pracowników.
Uważaj na cyfrowe gangmastering„Digitalizacja pracy wymaga ponadto podjęcia pewnych niezbędnych środków ostrożności, aby zapobiec omijaniu gwarancji wywalczonych z trudem w ramach prawa pracy, mających na celu ochronę pracowników przed zagrożeniami, za pomocą prostych skrótów technologicznych”. „Ochrona danych odgrywa kluczową rolę w godzeniu potrzeb pracodawców ze swobodą pracowników, zwłaszcza w świetle innowacji wprowadzonych przez gig economy, która nie może przerodzić się w formę cyfrowego gangmasteringu”.
„Szczególnie istotny w tym kontekście jest środek podjęty przeciwko firmie dostarczającej żywność, która zorganizowała pracę za pośrednictwem platformy, mimo braku niezbędnych zabezpieczeń dla pracowników” – mówi Stanzione. Według Urzędu, ochrona danych jest bastionem praw w rewolucji cyfrowej, „chroniąc najgłębiej 'ludzki' aspekt innowacji”. „Brak regulacji” – dodaje Urząd – „nie prowadzi do równości, lecz do podporządkowania się wymogom rynku”.
Ryzyko „efektu zniekształcającego, przede wszystkim w kategoriach demokratycznych, któremu europejskie regulacje cyfrowe, pomimo nieuniknionych wzlotów i upadków, starają się przeciwdziałać poprzez zmianę zakresu władzy prywatnej i oddanie technologii w służbę jednostki”.
„Potrzebujemy pedagogiki cyfrowej”Ale jak to zrobić? Gwarant podkreśla potrzebę wspólnych działań, angażujących różne właściwe organy europejskie (przede wszystkim gwarantów, organy ścigania) oraz społeczeństwo obywatelskie. Rozważmy na przykład, co mówi o nieletnich: „Ważne jest, aby dostęp do tych urządzeń, a szerzej – do internetu, nie odbywał się w pojedynkę”. To, co nazywa „pedagogiką cyfrową”, jest konieczne. Potrzebny jest „wspólny sojusz instytucji i środowisk edukacyjnych w celu promowania świadomości cyfrowej wśród nieletnich. Szkoły robią wiele; Gwarant wspiera je w tych wysiłkach na rzecz rozwoju obywatelstwa cyfrowego”.
„Potrzebujemy kultury ochrony danych”Świadomość cyfrowa jest jednak niezbędna dla każdego – zwłaszcza dla osób pracujących w służbie zdrowia, gdzie dane są niezwykle wrażliwe – zauważa Urząd. „Coraz bardziej konieczne jest, aby personel sektora publicznego i prywatnego wpajał kompleksową kulturę ochrony danych” – stwierdza Urząd. „Każdy musi być świadomy wagi swoich działań dla zapewnienia bezpieczeństwa »cyfrowej granicy« kraju: jest ona częścią kultury cyfrowej, bez której żadna strategia ochrony nie jest możliwa”. „Ta świadomość jest niezbędnym warunkiem wstępnym reform, które nie są jedynie innowacją techniczną, ale stanowią rzeczywisty postęp w zakresie wolności i gwarancji demokratycznych” – podsumowuje Urząd.
La Repubblica